Federated learning facilitates the collaborative training of models without the sharing of raw data. However, recent attacks demonstrate that simply maintaining data locality during training processes does not provide sufficient privacy guarantees. Rather, we need a federated learning system capable of preventing inference over both the messages exchanged during training and the final trained model while ensuring the resulting model also has acceptable predictive accuracy. Existing federated learning approaches either use secure multiparty computation (SMC) which is vulnerable to inference or differential privacy which can lead to low accuracy given a large number of parties with relatively small amounts of data each. In this paper, we present an alternative approach that utilizes both differential privacy and SMC to balance these trade-offs. Combining differential privacy with secure multiparty computation enables us to reduce the growth of noise injection as the number of parties increases without sacrificing privacy while maintaining a pre-defined rate of trust. Our system is therefore a scalable approach that protects against inference threats and produces models with high accuracy. Additionally, our system can be used to train a variety of machine learning models, which we validate with experimental results on 3 different machine learning algorithms. Our experiments demonstrate that our approach out-performs state of the art solutions. CCS CONCEPTS• Security and privacy → Privacy-preserving protocols; Trust frameworks; • Computing methodologies → Learning settings.
translated by 谷歌翻译
计算模型是系统的定量表示。通过分析和比较此类模型的输出,可以更好地了解系统本身。但是,随着模型输出的复杂性的增加,将模拟彼此比较变得越来越困难。虽然只能比较多个模拟的一些特定模型输出是很简单的,但是能够比较整个模型仿真是更有用的。但是,很难以公正的方式整体比较模型模拟。为了解决这些局限性,我们使用暹罗神经网络将模型模拟与单个值进行比较,而神经网络捕获了模型输出之间的关系。我们为模型模拟培训暹罗网络提供了一种方法,并显示如何使用训练有素的网络来提供模型输出的整体比较。该方法可以应用于广泛的模型类型,提供了分析计算模型复杂输出的定量方法。
translated by 谷歌翻译
评估成像中的乳腺癌风险仍然是一个主观过程,在该过程中,放射科医生采用计算机辅助检测(CAD)系统或定性视觉评估来估计乳房密度(PD)。更先进的机器学习(ML)模型已成为量化早期,准确和公平诊断的乳腺癌风险的最有希望的方法,但是医学研究中的这种模型通常仅限于小型单一机构数据。由于患者人口统计和成像特征可能在成像站点之间有很大差异,因此在单机构数据中训练的模型往往不会很好地概括。为了应对这个问题,提出了Mammodl,这是一种开源软件工具,利用UNET体系结构来准确估计乳腺PD和数字乳房X线摄影(DM)的复杂性。通过开放的联合学习(OpenFL)库,该解决方案可以在多个机构的数据集上进行安全培训。 Mammodl是一个比其前任更精简,更灵活的模型,由于对更大,更具代表性的数据集的支持培训,因此具有改进的概括。
translated by 谷歌翻译
消费者设备中的语音代理的激增需要新的工具,用于评估这些系统超出其技术功能。本文提出了一种用于评估语音用户界面(VUIS)的工具包,其目的是测量用户体验中主观享受的关键因素。使用现有文献的元分析构建了Pueva Toolkit,结构化N = 20和半结构化N = 18个访谈和一个受试者实验室研究。由此产生的问卷包含35项,其中三类代表12种规模:(1)个性(2)用途和(3)令人愉快的态度。Pueva Toolkit将我们迁移到评估和比较科学之间的主观,快乐体验的能力以及对象内研究设计。
translated by 谷歌翻译
本文研究了基于K最近邻居算法的专家系统的效力,用于激光散斑图像采样应用于早期检测糖尿病。利用人工智能引导激光散斑成像技术的最新发展,可以优化与合适的AI技术相关联的激光参数,例如波长,能级和图像纹理测量,以有效地与皮肤组织的亚细胞特性相互作用检测糖尿病的早期迹象。由于其优化的激光物理学和AI技术的优化组合,新方法可能比典型的皮肤葡萄糖水平观察更有效,并且另外,它允许非专家个人进行更频繁的皮肤组织测试以进行早期检测糖尿病。
translated by 谷歌翻译
已知自然语言推断(NLI)模型从训练数据内的偏见和人工制品中学习,影响他们概括到其他看不见的数据集。现有的去偏置方法侧重于防止模型学习这些偏差,这可能导致限制模型和较低的性能。相反,我们调查教学模型如何将人类接近NLI任务,以便学习将更好地概括到以前看不见的特征。使用自然语言解释,我们监督模型的注意力,以鼓励更多地关注解释中存在的词语,显着提高模型性能。我们的实验表明,这种方法的分布式改进也伴随着分发的改进,监督模型从概括到其他NLI数据集的功能。该模型的分析表明,人类解释鼓励增加对重要词语的关注,在前提下的单词和较少关注标点符号和止扰言论的关注。
translated by 谷歌翻译